Підписуйтесь на розсилку статей для HR і рекрутерів! Будьте в тренді з Hurma ;)
Я даю свою згоду на обробку Персональних Даних у відповідності з Політикою конфіденційності та приймаю Угоду користувача
Думаю, більшість з читачів чули та використовували AI ChatGPT у своїй роботі. Очевидно, що AI вміє робити неймовірні речі, які ще декілька років тому здавалися неможливими для цього класу систем — ось коротке відео англійською, що показують сучасні можливості цих AI-систем.
Як і в попередній статті — ми не будемо розглядати базові теми типу "що це таке?", "воно нічого не вміє" чи "куди натискати, щоб отримати магію?". Стаття очікує, що ви вже пройшли цей етап і базові речі розумієте.
Ми підемо трохи далі — поговоримо про речі, які потрібні для ширшого розуміння теми, більш ефективного використання цих систем та щоб розмовляти однією мовою з більш технічно підкованими колегами.
Але в цій статті ми не будемо заглиблюватись в "як воно працює", "а воно насправді все складніше" і "чому саме так?". Причини досить прості — нам потрібно описати не самі базові речі простими словами.
Важливо! Для тих, хто поки не користується можливостями AI – я б порадив спочатку подивитися відео чи інші статті про базові речі.
Дуже часто будь-які сучасні рішення у сфері штучного інтелекту називають одним словом: ChatGPT. Щось на кшталт з тим, як виник термін "ксерокс", що пішов від назви компанії Xerox, яка першою випустила продукт на масовий ринок.
Насправді ChatGPT є лише одним з продуктів на ринку, які дають схожий функціонал. А OpenAI – лише одна з компаній, що цим займається. Свої рішення є й у Google (серія продуктів Gemini), X (Grok), Meta (моделі Llama), Anthropic (Claude).
Причина проста: ChatGPT був першим в ніші та досі є одним з найкращих.
Водночас – ChatGPT є лише одним з найкращих рішень. І вже сформувалися сфери, де інші продукти переважають.
Наприклад, Claude дуже гарно побудувала інтерактивну взаємодію з користувачем, і вважається трохи кращою у "людяності" під час роботи. А Llama можна запустити на власному ноутбуці без доступу в інтернет і взагалі не турбуватися про приватність ваших даних.
Що найголовніше розуміти — всі ці рішення побудовані на одній основній технології, що називається LLM (Large Language Model, Велика Мовна Модель).
Важливо! Саме тому надалі в статті ми будемо використовувати саме термін LLM, як основний компонент цих продуктів, а не ChatGPT, Claude та інші.
Для технічних експертів. Так, я знаю, що під капотом ChatGPT чи Claude вже давно не тільки LLM, а повноцінна мультимодальна система. Але основна "магія" та навантаження так само припадає на LLM. Тому, заради спрощення, це і приймемо за термін.
Жодна LLM не вміє логічно мислити. Зупиніться. І ще раз прочитайте перше речення абзацу. LLM не вміють думати логічно. Те, що Вам видає ChatGPT чи Claude не є результатом роздумів, чи аналізу. Це значною мірою результат вгадування найбільш ймовірного наступного слова. І все. Я розумію, що звучить дико, але це так.
Розробники намагаються покращити цю ситуацію (і в них виходить).
Наприклад, останні версії моделей від OpenAI (моделі ChatGPT) потроху вчаться будувати логічні ланцюжки, щоб відповідь була більш цілісна і логічна. Але поки що кожен такий запит є досить дорогим, тому широкого розповсюдження не має. Та і працює не завжди ідеально.
Візьмімо приклад. Якщо попросити штучний інтелект скласти план навчання для команди, воно може:
Але система НЕ розуміє:
Магія — це неймовірний результат, який ми не можемо чітко і детально пояснити. І так вже сталося, що людство поки що не може пояснити чітко і в деталях, як сучасні LLM доходять до своїх відповідей. Тобто ми знаємо, з яких компонентів складається система, але чому саме ось в цьому місці стоїть саме це значення, а не більше і не менше на 5% — пояснити не можемо.
Тому що сам підхід, на якому базуються LLM не новий і розвивається достатньо довгий час. Ми розуміємо, чому система побудована саме так, і не інакше.
Ось така цікава історія, якою ви зможете вразити своїх колег.
Автоматичне розпізнавання наразі вважається неможливим. Декілька компаній заявляли про розробку таких рішень (включаючи авторів ChatGPT), але жодного підтвердженого рішення немає.
З мого досвіду, найкращими способами є:
Цей пункт неймовірно важливий, тому що значна частина роботи HR та рекрутера — робота з людьми. Відповідно, дуже важливо кожен раз, коли ви робите щось за допомогою AI, задавати собі питання: "А чи впливає людська динаміка нашої компанії на результат, який я хочу від AI?".
Claude або ChatGPT можуть створити чудовий план робіт з покращення роботи HR-департаменту, який базується на найкращих світових практиках. І цей план не буде мати жодного шансу на життя, тому що будь-які практики потрібно адаптувати під ринок, країну, культуру, конкретну компанію, її культуру, керівників та виконавців.
Теоретично, все це також можна завантажити в систему і покращити якість виданого результату. Практично — наразі це неробочий підхід.
Цікаве! Якщо попросити, AI згенерує вам не один, а три чи п'ять планів, кожен з яких буде мати сенс 🙂
Ще цікаве! Будь-яку з вищевказаних систем можна спитати про їх обмеження при роботі з HR і отримати досить гарну відповідь.
Будь-яка мовна модель розробки "навчається" на дуже, дуже великому обсязі реальних (і створених штучно) даних.
Ключовий момент: під час роботи розробники продовжують збирати дані, що ви вводите! І можуть використовувати для продовження "навчання" цієї чи наступної версії.
Відомі не один і не два випадки, коли приватні дані великих компаній потім з'являлися в результатах видачі для інших користувачів.
Звичайно, в корпоративних чи платних підписках зазвичай є вимикачі, які блокують використання ваших даних. Але в безплатних версіях є великий шанс, що всі ваші дані будуть зібрані та, потенційно, використані!
Цьому є два способи зарадити:
Такі моделі зазвичай видають не такий гарний результат, але для багатьох задач їх більш ніж вистачає.
Наразі користувач може розраховувати на рівень спеціаліста з 2-3 роками досвіду, в якого є додаткові й потужні інструменти:
З цього і випливає розуміння коли та навіщо використовувати ці системи. І коли їх не чіпати взагалі.
Тобто не варто очікувати аналізу, що базується на розумінні теми чи контексту. Не варто очікувати 100% послідовності викладення думок. Але варто очікувати величезний обсяг знань та вміння дуже гарно складати слова.
Ця фраза як ніколи правильна і вірна. Дуже важливо надати системі чіткі інструкції та необхідний контекст, додаткові матеріали. Чим краще це робиться, тим кращий результат.
Спілкування з AI чимось нагадує розмову з дуже старанним, але буквальним стажистом. Попросите "знайти щось цікавеньке про HR" – отримаєте енциклопедію від часів фараонів. Попросите "Три сучасні тренди в HR за останній рік" – отримаєте чітку відповідь.
Якщо LLM – ваш щоденний помічник, я дуже сильно раджу почитати статтю про те, як правильно писати запити. Англомовний приклад можна знайти ось тут.
Комерційні рішення по типу ChatGPT та Claude давно вміють не тільки писати текст. Вони досить гарно можуть розпізнавати картинки, документи та інші формати. І так само можуть створювати не тільки текст, але й картинки, документи, інтерактивні сторінки та інше.
Важливо! Я спеціально не заглиблююсь в цій статті в інші форми аналізу чи створення графіків, зображень, вебсторінок чи математичних виразів, на які здатні ChatGPT. Не варто заплутувати читача.
Приклад! Ось такі відповіді видали платні Claude (зліва) та ChatGPT на прохання згенерувати картинку "HR сидить в шоці від перспектив AI". Але при всій простоті варіанта Claude – вона вже інтерактивна 🙂
В кінці хочу донести до всіх дві важливі думки:
Тому найкраще, що потрібно зробити тут і зараз — навчитися користуватися AI на щоденній основі. Почати з рівня "Зроби мені магію", а потім продовжити розбиратися до рівня "В мене є неймовірно потужний інструмент. Я можу робити більше і краще".
При створенні цієї статті LLM використовувалися для:
Зверніть увагу — жодної участі в написанні тексту статті. І не тому, що я принципово проти цього. А тому, що нинішні LLM пишуть статті вище базового рівня з купою очевидних недоліків.
Авторські статті та коментарі до них показують виключно експертизу та думку їх авторів. Редакція HURMA може не поділяти погляди авторів.
Я даю свою згоду на обробку Персональних Даних у відповідності з Політикою конфіденційності та приймаю Угоду користувача